剛剛聽說可以免費學完全部5個課!如果這早個兩週開始多好(淚
好ㄉ 因為這是之前打的,我覺得仍然符合心情。快段考了呃啊啊啊啊啊!!!
反正該認真了。其他大大們可是沒有暑假,工作&計畫兩頭燒....(膜拜
剛進第二個單元,看到一個詞叫Square error(均方誤差)一直出現,直接去Google。
式子本身大概是看得懂,可是突然發覺自己還不理解數學函式在ML是怎麼用的?
Few days later:ML就是訓練機器預測,那個誤差的函式就是要讓機器算到結果接近0的函式啦(?
應該吧。
今天還有教到activation functions,花了好一陣子才有點概念。他的中文是 啟用函式,影片有給4個座標圖,我可能...可能理解那是啥。然後...使用方式...或許改天再研究吧(各種不知道在幹嘛
神經網路中的每個神經元節點接受上一層神經元的輸出值作為本神經元的輸入值,並將輸入值傳遞給下一層,輸入層神經元節點會將輸入屬性值直接傳遞給下一層(隱層或輸出層)。在不使用激勵函式時,神經網路的每層都只是做線性變換,多層輸入疊加後也還是線性變換。在這種情況下你每一層節點的輸入都是上層輸出的線性函式,此時無論你的神經網路有多少層,輸出都是輸入的線性組合,與沒有隱藏層效果相當,這種情況就是最原始的感知機(Perceptron)了,網路的逼近能力就相當有限。
激勵函式用於神經網路的層與層之間,上一層的輸出通過激勵函式的轉換之後輸入到下一層中。這樣我們輸出的就不是線性組合的函式,而是一個非線性函式。非線性函式可以更好地學習和表示輸入輸出之間非線性的複雜的任意函式對映。
from here
有懂嗎?
沒有。
這似乎是什麼基礎的事情呢(?
總之.....有點想睡 晚安各位